Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Du bist erfahren im Umgang mit Kafka, Spark, Oracle PL/SQL, Informatica, DWH Automation und/oder CI/CD. Du besitzt Kenntnisse in Java und/oder Python und kennst relevante Tools und Bibliotheken. Du hast idealerweise Praxiserfahrung mit Cloud-Technologien (AWS und/oder MS Azure) und Datenmodellierung (Data Vault, Dimensional, 3NF, ADAPT etc.).
Unser ideales Profil Masterabschluss in Informatik, Mathematik/Statistik, Wirtschaftswissenschaften/Ökonometrie oder einem verwandten Fachgebiet.Mehrjährige Berufserfahrung in quantitativer Datenanalyse oder eine Promotion mit mindestens einem Jahr relevanter Berufserfahrung im Bereich Machine‑Learning‑Forschung.Sehr gute Kenntnisse und tiefes Verständnis von Machine‑Learning‑Methoden, sowohl klassisch als auch Deep Learning.Relevante Erfahrung mit Natural Language Processing (NLP) zur Extraktion strukturierter Konzepte aus unstrukturiertem Freitext, einschließlich Design, Training und Evaluierung von Information‑Extraction‑Pipelines.Sehr starke technische Fähigkeiten in Python, SQL und dem Hadoop‑Ökosystem.Erfahrung in der Anwendung von KI-/Machine‑Learning‑Methoden auf geschäftliche Fragestellungen.Sehr gute Kenntnisse fortgeschrittener statistischer und ökonometrischer Methoden in Theorie und Praxis.Erfahrung im Umgang mit Big Data.Fähigkeit, sauberen, wiederverwendbaren, produktionsreifen Code zu schreiben.Hervorragende Kommunikationsfähigkeiten (schriftlich und mündlich), einschließlich technischer Projektaspekte, Dokumentation, Ergebnisinterpretation und geschäftlicher Empfehlungen.Ausgeprägtes analytisches Denken und logische Problemlösungskompetenz, starke Qualitätsorientierung.Kenntnisse des Pharmamarktes und Erfahrung mit pharmazeutischen Daten (medizinische Daten, Krankenhausdaten, Apothekendaten, Abrechnungsdaten) sind von Vorteil, aber nicht zwingend erforderlich.Selbstständige Projektsteuerung.Fließende Deutsch- und Englischkenntnisse.
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
*Geschlecht (d/m/w) egal, Hauptsache luftfahrtbegeistert✈ Abgeschlossenes Studium in Informatik, Datenverarbeitung oder Nachrichtentechnik mit einschlägiger Berufserfahrung ✈ Mehrjährige Erfahrungen bei der Entwicklung und Einführung von Architekturvorgaben, der Umsetzung von Data-Governance-Ansätzen sowie beim Aufbau einer Datenorganisation ✈ Fundierte Kenntnisse in modernen Datenarchitekturen und Datenmodellen, v.a. auch in Cloud-Technologien und API-Architekturen ✈ Idealerweise Kenntnisse in SWIM (System Wide Information Management) ✈ Erfahrung im Einsatz von Werkzeugen, Tools und Anwendungen für Datenmanagement, -governance und -modellierung ✈ Erfahrung in Projektleitung und Arbeitsgruppen, auch im internationalen Umfeld ✈ Verhandlungssichere Englischkenntnisse in Wort und Schrift32 Tage bezahlte Freistellung (u.a.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Gestalten, Implementieren und Pflegen von Datenpipelines Zusammenführen und Konsolidieren von Daten aus verschiedenen Systemen und Plattformen Gewährleisten der Datenqualität, Identifizieren und Bereinigen von Unstimmigkeiten Überwachung und Optimierung von Datenbanken und Speicherlösungen Implementierung von Sicherheitsmaßnahmen und Datenschutzrichtlinien Enge Zusammenarbeit mit Data Scientists, Analysten und anderen Stakeholdern Technologietrends verfolgen und stetig auf dem neuesten Stand der Datenverarbeitungstechnologien bleiben Deutsch fließend in Wort und Schrift (C1), gute Englischkenntnisse Abgeschlossenes Studium in Informatik, Datenwissenschaft oder adäquate Qualifikation Erfahrung in der Datenverarbeitung, idealerweise in einer ähnlichen Position als Data-Engineer Gute Kenntnisse in relevanten Programmiersprachen (Python, Java, etc.) Erfahrung mit relationalen und nicht-relationalen Datenbanken (SQL, No-SQL) Erfahrung mit ETL-Tools und -Frameworks wie Apache Spark, Apache NiFi oder ähnlichen Grundkenntnisse in Big Data-Technologien wie Hadoop, MongoDB, Graph Datenbanken und Vector Datenbanken Kommunikationsfähigkeit, Analytisches Denken, Selbstständigkeit Innovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt.
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Mehr als ein grüner Daumen – Ihr Profil als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Abgeschlossene Ausbildung im Bereich, Bürokommunikation, Verwaltung oder eine vergleichbare Qualifikation Erste Erfahrung in der Stammdatenpflege Gute Kenntnisse in MS Office, insbesondere Excel Idealerweise Erfahrung mit ERP-Systemen, insbesondere SAP S4/HANA Analytische Fähigkeiten und ein Auge für Details Strukturierte und gewissenhafte Arbeitsweise Kommunikationsstärke und Teamfähigkeit Gute Deutschkenntnisse in Wort und Schrift, Englischkenntnisse sind von Vorteil Teil- oder Vollzeitbeschäftigung: ab 20 Std.
Pandas) routiniert für Datenverarbeitung; mit SQL Server hast Du produktive Erfahrung.Du verfügst über erste Kenntnisse im Bereich der automatischen Datenverarbeitung / Orchestrierung von Workflows und hast idealerweise bereits mit Azure Synapse Analytics gearbeitet.Du bist ein echter Teamplayer, arbeitest sorgfältig und bringst die Bereitschaft mit, Dich in neue Tätigkeitsfelder einzuarbeiten.Du zeichnest Dich durch eine transparente und klare Kommunikation aus und verfügst über sehr gute Deutsch- und Englischkenntnisse (mind.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt. Projekterfahrung aus mind. 1 Projekt zum Chatten mit SQL-Daten Projekterfahrung aus mind. 1 Projekt in der Evaluation von Agentensystemen (u.a. mit LLM-as-a-Judge Methodiken) Praktische Erfahrung in der Entwicklung von Retrieval-Systemen für RAG-Anwendungen unter der Verwendung von Vektordatenbanken (z.B.
Ihre Chancen und Vorteile – mehr als nur ein Job Attraktive Vergütungsmodelle (Gehaltsspanne von 50.000 - 60.000 € jährlich)Unbefristetes Arbeitsverhältnis30 Tage UrlaubUrlaubsgeldJahresgratifikationVermögenswirksame LeistungenUmfangreiches Angebot an WeiterbildungenAttraktive Jobrad KonditionenAusführliche Einarbeitung Ihr Tätigkeitsbereich mit Verantwortung Eigenverantwortliche Unterstützung bei allen Planungs- und ReportingaktivitätenErstellung kundenspezifischer Daten und vertriebsunterstützender Auswertungen zur Analyse und Steuerung von VertriebsaktivitätenFortentwicklung der bestehenden Controlling-Systeme und Roll-Out unseres BI Systems (Power BI) in weitere GeschäftsbereicheZusammenarbeit mit verschiedenen Abteilungen, um Datenquellen zu identifizieren, zu integrieren und zu analysieren (Data Warehouse)Unterstützung der Fachabteilungen bei der Erstellung / Nutzung von Berichten und KPI´sErstellung und innerbetriebliche Diskussion von Abweichungsanalysen und Ad-hoc Auswertungen Ihre Kompetenzen und Potentiale Studium bzw. kaufmännische Ausbildung mit Schwerpunkt Big Data, Business Intelligence oder vergleichbarMindestens 3 Jahre BerufserfahrungSelbstständige, teamfähige, aufgeschlossene und motivierte Persönlichkeit, die sich als proaktiver Sparringspartner verstehtKenntnisse in BI-Tools (Qilk, Power BI) und/oder LucaNet wünschenswertAusgeprägte IT-Affinität von VorteilSehr gute Excel-KenntnisseFundierte Kenntnisse in operativen Themen (Budgetierung, Forecasting, Reporting, KPIs, etc.) Wir haben Ihr interesse geweckt?
Abitur oder allgemeine Hochschulreife Interesse an Daten, Mathematik, Informatik und analytischem Denken Gute Kenntnisse in Mathematik & erste Berührungspunkte mit Programmierung sind von Vorteil Selbstständige Arbeitsweise, Teamfähigkeit & Spaß am Lernen Durchhaltevermögen und Motivation Gehalt und Sonderleistungen Wir übernehmen deine Studiengebühren und du erhältst außerdem ein überdurchschnittliches Ausbildungsgehalt (1.
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Mit unserer langjährigen Rekrutierungserfahrung und unseren Kenntnissen des Engineering-Personalmarktes bieten wir Fach- und Führungskräften aus dem Ingenieurwesen und dem technischen Umfeld eine starke Partnerschaft.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten. Add-on: Du verfügst über SQL-Kenntnisse und hast ggf. bereits Praxiserfahrung mit Python.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten. Add-on: Du kannst dich gut auf Deutsch und Englisch verständigen und hast ggf.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften. Add-on: Du verfügst über SQL-Kenntnisse und bringst bereits Erfahrung in der Arbeit mit einem BI-System (z.B. IBM Cognos, PowerBI, Tableau, Qlik) mit. Außerdem kannst Du dich gut auf Deutsch und Englisch verständigen.
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Das wünschen wir uns Laufendes Studium in den Fachrichtungen Informatik oder vergleichbare Studiengänge. Fachliche Kenntnisse im Bereich SQL, MongoDB, C#, Go und Python. Interesse an datengetriebenen Anwendungen und moderner Softwareentwicklung. Du begeisterst dich für fortschrittliche Li-Ionen Akkutechnologie.
Ihre Aufgaben Konzeptionierung und Erstellung von Reportings und Analysen für interne und externe Kunden des Kundenservice Umsetzung von Report- und Analyseanforderungen auf Basis der Data Warehouses Unterstützung in der Konzeptionierung und Weiterentwicklung des Kundenservice P&P eigenen Data Warehouses Durchführung von Projekten zur Optimierung des Reportings und der Analysefähigkeiten im Kundenservice P&P Ihr Profil Fachanforderungen Abgeschlossenes Studium der Statistik, Mathematik, Informatik, Wirtschaftswissenschaften oder vergleichbare Studienausrichtung Mehrjährige Berufserfahrung in einer vergleichbaren Tätigkeit Erfahrungen aus der Customer Contact Center Branche und im Projektmanagement sind wünschenswert Ausgeprägte konzeptionelle Fähigkeiten in Kombination mit einer hohen Zahlenaffinität Fundierte Kenntnisse der MS Office Standardsoftware (insbesondere Excel, Access und PowerPoint) Fundierte Kenntnisse in Microsoft BI Produkten (z.B.
Das kannst du bei uns MACHEN: Konzeptionieren, Weiterentwickeln und Umsetzen von Integrations- und ETL-Lösungen und den zugehörigen Architekturen auf Basis des Microsoft Azure-StacksAnalysieren und Integrieren neuer Datenquellen sowie kontinuierliches Optimieren der vorhandenen ImplementierungenMitwirken bei Migrationsprojekten und komplexen AuswertungenBetreiben, Monitoren und Deployment der Prozesse im DevOps-PrinzipKommunizieren mit den Fachabteilungen und Mitarbeitenden in strategischen Unternehmensprojekten Das könntest du bei uns EINBRINGEN: Erfolgreich abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik oder vergleichbare QualifikationAnwendungsbereite Python Kenntnisse, idealerweise Python Data Analysis LibraryKenntnisse im Bereich von Integrations- und Architekturmuster* Erfahrungen mit serviceorientierten Architekturen und MicroservicesDatabricks-Kenntnisse und Erfahrung mit Message Brokern (Kafka, Azure ESB) sind von VorteilTeamfähigkeit sowie strukturiertes und strategisches Arbeiten sowie interkulturelle KompetenzHohe Eigeninitiative sowie ein gute ProblemlösungskompetenzGute Deutsch- und EnglischkenntnisseRegelmäßige Präsenz am Standort Darauf kannst du dich bei uns FREUEN: Wettbewerbsfähiges Gehalt zzgl.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Mit unserer langjährigen Rekrutierungserfahrung und unseren Kenntnissen des Engineering-Personalmarktes bieten wir Fach- und Führungskräften aus dem Ingenieurwesen und dem technischen Umfeld eine starke Partnerschaft.
ÜBERWACHUNG UND WARTUNG VON OT-SYSTEMEN: Verwaltung und Wartung industrieller Steuerungssysteme wie SCADA, DCS und PLC SICHERHEITSMANAGEMENT: Entwicklung und Implementierung von Sicherheitsrichtlinien, Identifikation und Behebung von Schwachstellen, sowie Überwachung von Sicherheitsereignissen DATENANALYSE: Sammlung, Analyse und Interpretation von Betriebsdaten, zur Erkennung von Trends und Mustern INTEGRATION VON IT UND OT: Sicherstellung einer nahtlosen Kommunikation und Integration zwischen OT-Systemen und der IT Infrastruktur der POLYTEC PROZESSOPTIMIERUNG: Identifikation von Verbesserungspotenzialen und Implementierung von Änderungen zur Steigerung der Effizienz und Produktivität ...und bringen folgende Qualifikationen mit? Sehr gute Kenntnisse in der Programmierung (Python oder C#) sowie Erfahrung in der Entwicklung und Wartung von Applikationen Know-how in Datenanalyse und -aufbereitung, inkl. sicherem Umgang mit Microsoft Power BI (Datenmodelle, DAX, Dashboards) Erfahrung mit Microsoft Power Platform (Power Apps) und SharePoint (Listen, Workflows, Berechtigungen) Kenntnisse im Umgang mit Datenbanken (z.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften. Add-on: Du verfügst über SQL-Kenntnisse und bringst bereits Erfahrung in der Arbeit mit einem BI-System (z.B. IBM Cognos, PowerBI, Tableau, Qlik) mit. Außerdem kannst Du dich gut auf Deutsch und Englisch verständigen.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse. Du verfügst über gute SQL-Kenntnisse und hast eine Leidenschaft für Daten. Add-on: Du kannst dich gut auf Deutsch und Englisch verständigen und hast ggf.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Scientist (m/w/d) Deine Aufgaben Du entwickelst Lösungen im Bereich Predictive Analytics, Machine Learning und Künstliche Intelligenz Du analysierst Prozesse, erarbeitest Optimierungspotentiale und erstellst Prototypen, um Lösungsansätze zu bestätigen Du berätst unsere Fachbereiche bei der Anwendung von datengetriebenen Lösungen Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI- und Data Science-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung sowie gute Mathematik-, Statistik- und IT-Kenntnisse. Weiterhin bist Du kreativ und hast eine Leidenschaft für Daten. Add-on: Du verfügst über SQL-Kenntnisse und hast ggf. bereits Praxiserfahrung mit Python.
CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
CRM, Field Service, Finance & Operations) sowie weiteren Unternehmenssystemen Sicherstellung einer konsistenten und belastbaren Datenbasis durch Datenvalidierung, Harmonisierung und Dokumentation von Kennzahlenlogiken Weiterentwicklung der Business-Intelligence-Landschaft im Umfeld von Microsoft Power BI und perspektivisch Microsoft Fabric Unterstützung bei der Automatisierung von Reporting- und Datenprozessen sowie der Optimierung bestehender Datenstrukturen Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Informatik, Data Analytics, Statistik, Betriebswirtschaftslehre oder eine vergleichbare Qualifikation 2–3 Jahre Berufserfahrung im Bereich Business Intelligence oder Data Analytics Fundierte Kenntnisse in Power BI (Datenmodellierung, DAX, Power Query) Erfahrung im Umgang mit SQL und relationalen Datenbanken wünschenswert Erfahrung mit Microsoft Dynamics 365 oder vergleichbaren ERP-/CRM-Systemen wünschenswert Erfahrung mit Microsoft Fabric, Dataflows oder modernen Datenplattformen wünschenswert Analytische und strukturierte Arbeitsweise sowie hohe Affinität zu Daten und Kennzahlen Unsere Benefits Kostenlos Wasser & Kaffee Kindergartenzuschuss Moderne Arbeitsplätze Firmenhandy (privat & geschäftlich) Parkplätze Urlaubsanspruch 30 Tage Akademie Kurze Entscheidungswege Haben Sie Fragen?
Hiermit kommst Du zu uns Du absolvierst gerade ein Studium mit Schwerpunkt Informatik oder auch Wirtschaftsinformatik, hierbei erzielst Du sehr gute Ergebnisse Du begeisterst dich für Kernthemen wie Cloud, Big Data, AI oder Datenvisualisierungstools Du hast Lust auf innovative und spannende Projekte mit Fokus auf Daten, Technologie und Innovation und Dich zeichnet ein gutes Gespür für aktuelle Trends rund um Digitalisierung aus Du besitzt fundierte Kenntnisse in Microsoft Office 365 Du hast erste praktische Erfahrungen in einer Unternehmensberatung oder internen Organisation mit Schwerpunkt Transformation, Changemanagement oder Strategieentwicklung Idealerweise konntest Du Deine eigenständige Arbeitsweise als Tutor oder Mentor an Deiner Hochschule unter Beweis stellen Du beherrschst die deutsche und englische Sprache sicher in Wort und Schrift Du bist ein Teamplayer mit hoher Eigeninitiative, Kommunikationsstärke und analytischen Fähigkeiten.
Ihre Chancen und Vorteile – mehr als nur ein Job Attraktive Vergütungsmodelle (Gehaltsspanne von 50.000 - 60.000 € jährlich) Unbefristetes Arbeitsverhältnis 30 Tage Urlaub Urlaubsgeld Jahresgratifikation Vermögenswirksame Leistungen Umfangreiches Angebot an Weiterbildungen Attraktive Jobrad Konditionen Ausführliche Einarbeitung Ihr Tätigkeitsbereich mit Verantwortung Eigenverantwortliche Unterstützung bei allen Planungs- und Reportingaktivitäten Erstellung kundenspezifischer Daten und vertriebsunterstützender Auswertungen zur Analyse und Steuerung von Vertriebsaktivitäten Fortentwicklung der bestehenden Controlling-Systeme und Roll-Out unseres BI Systems (Power BI) in weitere Geschäftsbereiche Zusammenarbeit mit verschiedenen Abteilungen, um Datenquellen zu identifizieren, zu integrieren und zu analysieren (Data Warehouse) Unterstützung der Fachabteilungen bei der Erstellung / Nutzung von Berichten und KPI´s Erstellung und innerbetriebliche Diskussion von Abweichungsanalysen und Ad-hoc Auswertungen Ihre Kompetenzen und Potentiale Studium bzw. kaufmännische Ausbildung mit Schwerpunkt Big Data, Business Intelligence oder vergleichbar Mindestens 3 Jahre Berufserfahrung Selbstständige, teamfähige, aufgeschlossene und motivierte Persönlichkeit, die sich als proaktiver Sparringspartner versteht Kenntnisse in BI-Tools (Qilk, Power BI) und/oder LucaNet wünschenswert Ausgeprägte IT-Affinität von Vorteil Sehr gute Excel-Kenntnisse Fundierte Kenntnisse in operativen Themen (Budgetierung, Forecasting, Reporting, KPIs, etc.)
Hiermit kommst Du zu uns Du absolvierst gerade ein Studium mit Schwerpunkt Informatik oder auch Wirtschaftsinformatik, hierbei erzielst Du sehr gute Ergebnisse Du begeisterst dich für Kernthemen wie Cloud, Big Data, AI oder Datenvisualisierungstools Du hast Lust auf innovative und spannende Projekte mit Fokus auf Daten, Technologie und Innovation und Dich zeichnet ein gutes Gespür für aktuelle Trends rund um Digitalisierung aus Du besitzt fundierte Kenntnisse in Microsoft Office 365 Du hast erste praktische Erfahrungen in einer Unternehmensberatung oder internen Organisation mit Schwerpunkt Transformation, Changemanagement oder Strategieentwicklung Idealerweise konntest Du Deine eigenständige Arbeitsweise als Tutor oder Mentor an Deiner Hochschule unter Beweis stellen Du beherrschst die deutsche und englische Sprache sicher in Wort und Schrift Du bist ein Teamplayer mit hoher Eigeninitiative, Kommunikationsstärke und analytischen Fähigkeiten.
Du verfügst über mind. 3-5 Jahre Erfahrung in agilen Business Intelligence- oder in Data Warehouse-ProjektenDu bringst Erfahrung in der Konzeption eventbasierter Schnittstellen mit, insbesondere mit Apache KafkaDu verfügst über SQL-Kenntnisse, hast mit einem ETL-Werkzeug (z. B. Oracle Data Integrator) gearbeitet und Daten modelliert; Idealerweise mit unserem Tool Innovator.Du willst Dein Wissen nachhaltig aufbauen, aktiv in einem Projekt mitwirken und verfügst über verhandlungssichere Deutschkenntnisse.Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Daten Analyse Webanalysen zur Auswertung der Seitennutzung Umsetzung, Testen und Automatisierung von Clusteranalysen zur Segmentierung von Endkunden und Banken Aufbereitung von Rohdaten aus verschiedenen Quellen Ausführliches Testing und Automatisierung für wiederkehrende Prozesse Retraining und Aktualisierung von Machine-Learning-Modellen Fundierte Kenntnisse in Oracle SQL, Python und Git Sicherer Umgang mit Azure Machine Learning Bankenerfahrung / Finance Daten (Must Have) Versiert im Einsatz von PowerBI Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Ihr Kontakt Referenznummer 864539/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Du arbeitest routiniert mit Daten, SQL und Python und beherrschst idealerweise Methoden zur Datengenerierung, -aufbereitung und -analyse mit sehr guten Kenntnissen im Finance-Bereich. In enger Zusammenarbeit mit den Fachbereichen identifizierst Du neue Anwendungsfälle im Zusammenhang mit Datenqualität in den jeweiligen Anwendungen, koordinierst Maßnahmen zu dessen Optimierung und erstellst ein entsprechendes Reporting.